یادداشت مهمان - حسین معافی، مدرس دانشگاه و پژوهشگر هوش مصنوعی؛ در دهههای اخیر، تحولات فناوری بهویژه پیشرفتهای چشمگیر در حوزه هوش مصنوعی (AI)، تحولات عمیقی در ساختار جنگ اطلاعاتی و رسانهای ایجاد کرده است. این فناوری، نه تنها ابزاری برای بهبود کارایی در بخشهای مختلف اقتصادی و اجتماعی شده، بلکه به ابزاری کلیدی در دستیابی به تأثیرگذاری سیاسی و تغییر نگرشهای عمومی تبدیل شده است.
در این میان، کشورهایی که با چالشهای داخلی و خارجی مواجه هستند، بهویژه ایران، شاهد گسترش گسترده استفاده از هوش مصنوعی توسط گروههای مخالف و معاند در قالب روایتسازیهای دروغین، تحریف اطلاعات و تولید محتوای مخرب هستند.
هوش مصنوعی به عنوان ابزار تولید محتوای مخرب، بهویژه مدلهای زبانی بزرگ (LLMs) مانند GPT، GEMINI ,GROK و مدلهای تولید تصویر و ویدئو (مانند DALL·E، MidJourney و Synthesia)، امکان تولید محتوای بسیار واقعگرایانه و مقرون به صرفه را فراهم کرده است. این فناوریها به گروههای مخالف اجازه میدهند:
تولید متنهای سیاسی کاذب با سبکهای متنوع (خبر، مصاحبه، گزارش، نظریه توطئه) که بهگونهای طراحی میشوند که از منابع معتبر به نظر برسند.
تولید تصاویر و ویدئوهای مصنوعی (Deepfakes) که شخصیتهای سیاسی، مقامات امنیتی یا حتی شهروندان عادی را در موقعیتهای نامناسب (مثلاً خشونت، یا تهدید به مرگ) نشان میدهند.
تولید محتوای چندزبانه با سرعت بالا و بدون نیاز به منابع انسانی گسترده، که به گسترش پیامهای مخرب در سطح جهانی کمک میکند.
این محتواها بهسرعت در شبکههای اجتماعی، پلتفرمهای فیلترشده و حتی در میان ارتباطات غیرمستقیم (مانند چتهای پیامرسانی) منتشر میشوند و بهعنوان "روایتهای معتبر" در نظر گرفته میشوند.
در طول ناآرامیها و حوادث تروریستی اخیر در ایران که در دیماه با اعتراضات کسبه و بازاریان شروع شد و در روزهای 18 و 19 دی به اوج خود رسید، گروههای مخالف و معاند بهطور فعال از هوش مصنوعی برای تولید تصاویر و ویدئوهای مصنوعی از خشونتهای احتمالی نیروهای امنیتی که در واقعیت اتفاق نیفتاده است استفاده کردند.
تولید گزارشهای کاذب درباره مرگومیر، زخمیشدگیها یا تجاوزات با جزئیات دقیق و احساسی که باعث تحریک افکار عمومی و تشدید اغتشاشات میشود و تولید متنهایی با سبک روزنامهنگاری معتبر که بهنام رسانههای خارجی منتشر میشوند، سوءاستفاده کرده و میکنند.
بهعنوان مثال، در یکی از موارد، یک ویدئوی مصنوعی از یک زن جوان که در حال فریاد برای کمک در خیابان بود، با استفاده از هوش مصنوعی تولید شد، این ویدئو بهسرعت در شبکههای اجتماعی گسترش یافت و بهعنوان "مورد واقعی" از خشونت نیروهای امنیتی معرفی شد، در حالی که هیچ شواهدی از وقوع آن در واقعیت وجود نداشت و یا تصویری از انبوه جنازهها در پزشکی قانونی منتشر شد که حتی لوگوی هوش مصنوعی تولید کننده آن را هم در گوشه تصویر پاک نکرده بودند.
استفاده از هوش مصنوعی در تولید محتوای مخرب، تأثیرات عمیقی بر افکار عمومی از جمله موجب تخریب اعتماد به منابع اطلاعاتی معتبر می شود، وقتی مردم مدام با محتوای مصنوعی مواجه میشوند، اعتماد به رسانههای داخلی و خارجی کاهش مییابد و بهتدریج به هر چیزی که میبینند، شک میکنند.
تغییر نگرشهای عمومی:محتوای مصنوعی با سبک احساسی و تحریککننده، افکار عمومی را به سمت تشدید تنش، بیاعتمادی به حکومت و توجیه خشونتهای اجتماعی سوق میدهد.
تسریع در گسترش اغتشاشات: محتوای مخرب بهسرعت در شبکههای اجتماعی پخش میشود و باعث میشود اعتراضات به سرعت از سطح مطالبههای سیاسی به سطح خشونت و اغتشاش برسند.
تضعیف امنیت ملی: این فعالیتها بهعنوان بخشی از جنگ اطلاعاتی خارجی (مانند تحریک از طریق نهادهای خارجی یا گروههای تروریستی) عمل میکنند و به تضعیف ثبات داخلی کمک میکنند.
بنابراین داشتن سواد رسانه و سواد هوش مصنوعی میتواند به افراد جامعه در تشخیص اصلی یا جعلی بودن اخبار، تصاویر، فیلم ها و رویدادها کمک زیادی کند و از تأثیرات منفی و احساسی اینگونه خبرها بکاهد. امروزه در عصر هوش مصنوعی با کمی تأمل، جستجو و تشکیک، میتوان واقعیت ماجرا را به درستی درک کرد و تحت تأثیر جوسازیها و روایتسازیهای دروغین قرار نگرفت.


نظر شما